Kerap Berikan Jawaban Ngasal, Pakar: AI Sering Halusinasi
Kerap Berikan Jawaban Ngasal Pakar Ai Sering Halusinasi
Jakarta, MISTAR.ID
Platform chatbot dengan kecerdasan buatan alias AI sering kali memiliki jawaban dari sejumlah pertanyaan pengguna. Namun apakah jawaban mereka benar atau malah sekadar asal-asalan?
Large language models (LLMs) seperti ChatGPT dari OpenAI, semuanya memiliki masalah yang sama yaitu mereka mengada-ada jawaban.
Bukan tanpa alasan, hal itu berdasarkan jawaban yang mengklaim bahwa Jembatan Golden Gate diangkut melintasi Mesir pada 2016. Tak jarang jawaban yang dihasilkan bukan lagi dalam tahap bermasalah, tapi justru membahayakan.
Baca juga : Akademisi: Pembuatan MoU Pelajar Tawuran Sebaiknya Melibatkan Pakar Pendidikan
Seorang walikota di Australia baru-baru ini mengancam akan menuntut OpenAI karena ChatGPT secara keliru menyebut dia mengaku bersalah dalam skandal penyuapan besar yang dilihat, Minggu (27/10/24).
Para peneliti telah menemukan bahwa halusinasi LLM dapat dieksploitasi untuk mendistribusikan paket kode berbahaya kepada pengembang perangkat lunak yang tidak menaruh curiga. LLM sering kali memberikan nasihat kesehatan mental dan medis yang buruk, seperti konsumsi anggur dapat “mencegah kanker”.
Kecenderungan untuk menciptakan “fakta” ini adalah fenomena yang dikenal sebagai halusinasi, dan ini terjadi karena cara LLM saat ini beroperasi dengan cara dikembangkan dan dilatih.
Model AI generatif tidak memiliki kecerdasan yang nyata karena mereka adalah sistem statistik yang memprediksi kata, gambar, ucapan, musik, atau data lainnya.
PREVIOUS ARTICLE
Bikin Virus Pakai AI, Pria Jepang Divonis 3 Tahun Penjara